Owerczuk: Polska potrzebuje Ministerstwa Sztucznej Inteligencji
Maria Kądzielska-Koper: W rywalizacji AI ważniejsze jest być numerem jeden w modelach frontier czy w dyfuzji AI do gospodarki, czyli w masowych wdrożeniach?
Michał Owerczuk: Mówię to jako osoba, która produkuje filmy w pipeline AI od kilku lat i widziała, jak ta technologia ewoluowała nie tydzień po tygodniu, ale dzień po dniu, z godziny na godzinę. To jest perspektywa praktyka, nie analityka think-tanku. I z tej perspektywy widać jasno: nie każdy kraj musi być numerem jeden w modelach frontier. To bardzo ważne, żeby powiedzieć to jasno, bo wokół tego narosło wiele mitów. Frontier models wymagają gigantycznych nakładów kapitałowych, dostępu do infrastruktury, energii i ekosystemu, który dziś jest skoncentrowany w kilku miejscach na świecie. Mówimy tu o modelach pokroju GPT, Claude'a czy Gemini, których trening kosztuje setki milionów dolarów. Ale obok nich istnieje silna warstwa modeli open source np.: francuski Mistral, Llama od Meta, chińskie Qwen i DeepSeek. To one są realnym narzędziem dla państw, które chcą budować suwerenność operacyjną bez ścigania się o pierwsze miejsce w benchmarkach.
Co to oznacza dla Polski?
Polska nie musi wygrać wyścigu o najbardziej zaawansowany model. Polska musi wygrać wyścig o adaptację, implementację i suwerenność operacyjną. Wystarczy, że będziemy brać najlepsze dostępne rozwiązania open source, adaptować je do własnych potrzeb i wdrażać je w administracji, w przemyśle, w obronności, w energetyce i w systemach państwowych, oczywiście z zachowaniem pełnego bezpieczeństwa i kontroli nad danymi. Estonia zbudowała X-Road i pokazała, że małe państwo może być wzorem cyfrowej administracji. Francja postawiła na Mistral i własną suwerenną chmurę. Singapur z programem Smart Nation pokazuje, że da się to robić systemowo. Polska ma talent, ale nie ma systemu, który ten talent wykorzystuje. Brakuje nam dojrzałego rynku venture capital, brakuje infrastruktury obliczeniowej na skalę państwową, brakuje kultury akceptowania ryzyka i porażki jako kosztu nauki. Dlatego z wielkim szacunkiem patrzę na ludzi, którzy w pocie czoła pracują nad ściąganiem do Polski inwestorów i budową fabryk półprzewodników. To jest kwestia strategiczna. Przewaga nie polega na tym, że masz największy model na świecie. Przewaga polega na tym, że twoje państwo działa szybciej, sprawniej i jest mniej zależne od zewnętrznych systemów.
Czego Polsce dziś najbardziej brakuje?
Radykalnej zmiany podejścia instytucjonalnego. Nie kolejnego programu pilotażowego, nie kolejnej strategii na papierze, tylko realnej struktury państwowej. Ministerstwo Cyfryzacji ma swoją rolę i powinno dalej zajmować się digitalizacją administracji, archiwów i usług publicznych. Ale sztuczna inteligencja to inna skala wyzwania. To jest infrastruktura strategiczna, a nie narzędzie biurowe.
Co w takim razie byłoby potrzebne?
Polska potrzebuje Ministerstwa Sztucznej Inteligencji. Instytucji o realnym budżecie, realnych kompetencjach i realnej mocy decyzyjnej. Nie pierwszy raz w Europie ktoś o tym myśli. Zjednoczone Emiraty Arabskie powołały Ministra Sztucznej Inteligencji już w 2017 roku, Omara Sultana Al Olamę. Dziś są jednym z najpoważniejszych graczy w regionie Zatoki, mimo że nie produkują własnych chipów, ani nie mają tradycji akademickiej w tej dziedzinie. Wielka Brytania ma AI Safety Institute. Francja ma swojego sekretarza stanu ds. cyfryzacji i AI oraz strategię zbudowaną wokół Mistrala. Polska wciąż nie ma instytucji o takiej randze. Mamy departamenty, mamy zespoły, mamy strategie. Nie mamy resortu z mandatem strategicznym, budżetem inwestycyjnym i władzą wykonawczą, który koordynowałby działania bezpośrednio z Ministerstwem Obrony Narodowej, resortem gospodarki, Ministerstwem Spraw Wewnętrznych i Ministerstwem Cyfryzacji.
Kto powinien stanąć na czele takiego resortu?
Na pewno nie polityk partyjny. I mówię to całkowicie wprost. To jest zbyt poważny obszar, żeby oddać go w ręce człowieka dobranego według klucza partyjnego, z którejkolwiek strony sceny politycznej. Nie widzę dziś w polskiej polityce osoby partyjnej, która dawałaby wystarczającą gwarancję zrozumienia AI na poziomie strategicznym, naukowym i operacyjnym. A tu stawka jest zbyt wysoka, żeby robić eksperyment kadrowy.
Kto więc powinien objąć taką funkcję?
Naukowiec. Osoba z realnym dorobkiem, rozumiejąca modele, infrastrukturę, wdrożenia, bezpieczeństwo, dane i długoterminowe skutki technologiczne. Ktoś, kto umie myśleć kategoriami państwa, ale nie jest zakładnikiem partyjnej logiki. O wyborze szefa takiej instytucji powinna decydować rada złożona z naukowców, ekspertów i praktyków najwyższej klasy, a nie partyjne kierownictwa. To powinien być proces oparty na kompetencji, a nie na lojalności politycznej. AI będzie wpływać na bezpieczeństwo państwa, gospodarkę, administrację, edukację, obronność i konkurencyjność całych sektorów. Oddanie tego w ręce nominata politycznego byłoby po prostu nieodpowiedzialne.
Jak taki model zarządzania miałby działać w praktyce?
Minister powinien mieć silny mandat ekspercki i stabilność działania wykraczającą poza jeden cykl wyborczy. Pięć lat to absolutne minimum, bo cykle technologiczne w AI są dłuższe niż polityczne. Resort powinien mieć trzy filary: pion strategiczno-regulacyjny, pion inwestycyjny z budżetem na granty, centra obliczeniowe i partnerstwa publiczno-prywatne, oraz pion wdrożeniowy odpowiedzialny za adopcję AI w administracji i sektorach krytycznych. Jeżeli potraktujemy AI serio, to musimy zbudować instytucję, która działa w logice państwowej, a nie w logice sondażowej. Tak jak powstały Wojska Obrony Terytorialnej, a w 2022 roku jako część Sił Zbrojnych RP: Wojska Obrony Cyberprzestrzeni z Cyber Legionem, Polska potrzebuje czegoś, co roboczo nazywam Polish AI Force.
Dlaczego musi to być jednostka wojskowa?
Po tym, co widziałem na Ukrainie w trakcie wojny, uważam, że po Wojskach Obrony Terytorialnej to jedna z najlepszych decyzji Ministerstwa Obrony Narodowej w ostatnich latach. Tak samo Wojska Obrony Cyberprzestrzeni powinny być niczym GROM perłą w koronie polskich sił zbrojnych. Kolejna wojna być może nie będzie już o to, kto ma cięższy sprzęt, tylko o to, kto posiada system, który cały ten sprzęt unieruchomi. A testy na Ukrainie pokazują, że roboty wszelkiej postaci: naziemne, latające, podwodne, już teraz mogą skutecznie prowadzić działania wojenne przeciwko siłom wroga. To nie jest perspektywa za dziesięć lat. To dzieje się na żywo, kilkaset kilometrów od polskiej granicy, a my mamy do tego dostęp obserwacyjny, jakiego nie ma żadne państwo NATO poza krajami bałtyckimi. Byłoby strategicznym błędem nie wyciągnąć z tego wniosków instytucjonalnych.
Co miałaby robić taka jednostka jak Polish AI Force?
Byłaby odpowiedzialna za wykorzystanie sztucznej inteligencji, agentów autonomicznych, robotyki i systemów analitycznych w obronności, wywiadzie, cyberbezpieczeństwie i operacjach państwowych. Nie w formie eksperymentu, tylko jako realna zdolność operacyjna. To nie jest science fiction. To jest logiczna konsekwencja tego, czym AI już jest. Sztuczna inteligencja staje się warstwą operacyjną państwa. Państwa, które to zrozumieją i zbudują własne kompetencje, będą suwerenne. Państwa, które tego nie zrobią, będą zależne od infrastruktury i decyzji innych. Polska ma talent, ma inżynierów, ma ludzi, którzy już dziś budują te systemy dla największych firm na świecie. Brakuje tylko jednego elementu: decyzji, żeby potraktować AI nie jako ciekawostkę, ale jako fundament bezpieczeństwa i rozwoju państwa.
Twarde wąskie gardła AI
Jakie są dziś najbardziej ryzykowne zależności w AI: chmura, modele, chipy, energia, software, dane?
Najbardziej ryzykowne są te zależności, które łączą koncentrację władzy z wąskimi gardłami infrastrukturalnymi. I tu trzeba być brutalnie szczerym: największe ryzyko nie leży w samym modelu, tylko w warstwie, która go zasila i utrzymuje.
Co jest pierwszym i najbardziej oczywistym wąskim gardłem?
Chipy. Zaawansowane GPU, pamięć HBM, sprzęt do litografii. To są elementy, których produkcja jest skoncentrowana w kilku krajach i kilku firmach. Jeżeli dostęp do nich jest ograniczony sankcjami albo łańcuch dostaw zostaje przerwany, całe tempo rozwoju może się zatrzymać. To jest czysta geopolityka.
Drugie wąskie gardło?
Energia. AI w skali przemysłowej to potężne zużycie prądu i chłodzenia. Centra danych stają się elementem infrastruktury krytycznej. Jeżeli zabraknie mocy energetycznej albo pojawią się ograniczenia regulacyjne, to nawet najlepszy model nie ma gdzie działać. W przyszłości energia może być równie ważnym czynnikiem strategicznym jak chipy.
Co z chmurą?
To trzecia zależność. AWS, Azure, Google Cloud i Oracle kontrolują razem około 65–70% globalnego rynku chmury. To oznacza koncentrację ryzyka. Jeżeli jesteś firmą budującą produkt AI i jesteś całkowicie uzależniony od jednej platformy chmurowej, to twoja suwerenność technologiczna jest ograniczona. Modele są ryzykowne z innego powodu. Uzależnienie się od jednego dostawcy API może oznaczać nagłe zmiany cen, zasad albo ograniczeń funkcjonalnych. To ryzyko biznesowe, nie geopolityczne, ale bardzo realne.
Dane to osobna kategoria?
Zdecydowanie. Jakość i dostęp do danych organizacyjnych decydują o przewadze. Jednocześnie dane są regulowane, objęte prawem ochrony prywatności i coraz częściej traktowane jako zasób strategiczny. Utrata dostępu do danych albo spór prawny o ich wykorzystanie może sparaliżować rozwój. Najmniej spektakularny, ale równie istotny element to software i warstwa narzędziowa. Frameworki agentowe, systemy monitoringu, bezpieczeństwo, kontrola dostępu. Jeżeli ta warstwa zawodzi, mamy chaos operacyjny i ryzyko nadużyć.
Gdybyś miał wskazać najbardziej niebezpieczną kombinację?
Sprzężenie chipów, energii i chmury. To są trzy elementy, które tworzą twardą infrastrukturę. Modele można zastąpić. Kod można przepisać. Ale jeżeli nie masz mocy obliczeniowej i energii, nie masz nic. I to jest realne centrum ryzyka w całym ekosystemie AI.
Między regulacją a suwerennością
UE powinna budować własne modele czy raczej postawić na suwerenność w warstwach: danych, infrastruktury, regulacji i wdrożeń?
UE powinna budować własne modele, ale jeśli postawi wszystko na ten jeden cel, przegra, bo Europa w praktyce robi dziś coś odwrotnego. Zajmuje się głównie regulowaniem produktów z USA i Chin, zamiast budować własną zdolność technologiczną. Z boku wygląda to wręcz groteskowo. Świat ucieka w stronę infrastruktury, energii, chipów i modeli, a my wchodzimy w rolę arbitra od nakrętek. To nie jest strategia. To jest administracja upadkiem. Efekt jest prosty do przewidzenia. Pełna zależność od supermocarstw. Najpierw technologiczna, potem gospodarcza, a na końcu polityczna.
Co to oznacza z polskiej perspektywy?
Dla Polski to jest sprawa kluczowa. To kwestia strategiczna, polska racja stanu. A my kompletnie nie traktujemy jej poważnie. Wciąż utrzymujemy duże instytucje medialne starego typu, które są kosztowne, mają malejący zasięg i nie generują żadnej przewagi cywilizacyjnej w globalnym wyścigu technologicznym. Niezależnie od tego, kto akurat trzyma władzę polityczną nad takimi molochami, sam model jest reliktem epoki, która już się skończyła. Tymczasem część tych środków publicznych mogłaby być inwestowana w AI. W modele, w infrastrukturę, w programy grantowe, w centra obliczeniowe, we wdrożenia w administracji i w przemyśle, w otwarte rozwiązania, które bierzemy i przerabiamy na własne. To nie jest argument przeciwko mediom publicznym jako idei. To jest argument za tym, że priorytety wydatków publicznych powinny odzwierciedlać wyzwania XXI wieku, a nie XX.
Dla wielu osób AI to wciąż przede wszystkim generowanie treści do internetu.
Właśnie to jest zasłona dymna. Nie interesuje mnie dyskusja o tym, czy AI służy dziś do robienia kontentu na social media. Tu gra toczy się o suwerenność i o to, czy będziemy peryferią cyfrową. Polska posiada potencjał, żeby myśleć o tym serio. Mamy ludzi. Jesteśmy eksporterem talentu. Wojciech Zaremba jest współzałożycielem OpenAI, Jakub Pachocki jest tam Chief Scientist, Mati Staniszewski i Piotr Dąbkowski założyli ElevenLabs, polscy researcherzy pracują w DeepMind, Anthropic i każdym poważnym laboratorium AI na świecie. W każdym z amerykańskich studiów AI, z którymi pracowałem przy architekturze systemów AI, byli polscy inżynierowie. Ludzie, którzy z powodów finansowych wybrali się za ocean, a wielu z nich chciałoby móc zakładać i rozwijać firmy w Polsce.
Właśnie ElevenLabs to przykład sukcesu, który powinniśmy powtarzać…
Tak. ElevenLabs to unicorn założony przez Polaków i pokazuje, że skala światowa jest realna. Jednak nad Wisłą słyszę w kółko o krótkowzroczności i strachu przed poważnymi inwestycjami. Jak ktoś próbuje zbudować coś dużego, natychmiast pojawia się oskarżenie o megalomanię. Wyceny rzędu miliardów dolarów i globalne kontrakty nie są megalomanią. To jest dzisiejsza norma w technologiach. To jest to, co zasila budżet państwa, buduje odporność gospodarczą i daje realną przewagę w kryzysie. Tego potrzebujemy w Polsce.
Jak definiujesz realną suwerenność Europy w AI?
Europa powinna przestać udawać, że regulacje zastąpią innowacje. Suwerenność w AI nie polega na tym, że spiszemy najlepszy kodeks etyczny. Suwerenność polega na tym, że mamy własne warstwy krytyczne: dane, infrastrukturę, energię, wdrożenia i przynajmniej część własnych modeli albo zdolność do ich lokalnej adaptacji. Bez tego UE będzie klientem. A Polska będzie tylko podwykonawcą albo dostawcą taniego talentu, który i tak wyjedzie tam, gdzie jest kapitał i gdzie ryzyko jest nagradzane.
Jakie nisze Europa może wygrać mimo dominacji USA i Chin?
Europa nie wygra w najbliższych latach wyścigu o największy model językowy ani o najbardziej spektakularne demo wideo. I nie powinna udawać, że wygra. Ale to nie znaczy, że jest skazana na rolę klienta. Pierwsza nisza to przemysł. Europa ma jedne z najbardziej zaawansowanych łańcuchów produkcyjnych na świecie: motoryzację, automatykę przemysłową, chemię, lotnictwo, energetykę.
Jak AI może tu realnie działać?
Nie do generowania obrazków, tylko do optymalizacji procesów, predykcji awarii, zarządzania energią i kontroli jakości. To jest twarda gospodarka, gdzie liczy się integracja z fizycznym światem. Daje tu przewagę nie najlepszy benchmark, tylko dostęp do maszyn, danych przemysłowych i relacji z firmami.
Druga nisza?
Energetyka i transformacja klimatyczna. Europa jest pod presją kosztów energii i regulacji klimatycznych, co paradoksalnie może stać się przewagą. Optymalizacja sieci, magazynowanie energii, zarządzanie popytem, symulacje systemów energetycznych. W nich AI może przynieść realną wartość. Trzeci obszar to zdrowie i medtech. Europa ma silne systemy ochrony zdrowia, duże zbiory danych klinicznych i wysokie standardy regulacyjne. Jeżeli uda się połączyć AI z interoperacyjnością danych i ochroną prywatności, można stworzyć przewagę w diagnostyce, analizie obrazów medycznych i personalizacji terapii.
A skoro Europa tak dużo reguluje, czy da się z tego zbudować przewagę?
Tak. Czwarta nisza to bezpieczeństwo, compliance i audyt algorytmów. Skoro Europa stawia na regulacje, może zbudować wokół nich przemysł. Narzędzia do audytu modeli, do monitoringu ryzyk, do zarządzania zgodnością z przepisami. To może być eksportowy segment, jeśli regulacje europejskie staną się globalnym standardem.
Zostaje jeszcze sektor publiczny.
To piąta nisza. Jeżeli Europa pokaże, że AI może realnie usprawnić administrację, skrócić procedury, zwiększyć przejrzystość i zmniejszyć koszty, to będzie przewaga systemowa. To wymaga odwagi wdrożeniowej, a nie tylko pisania strategii. Największa szansa Europy leży nie w kopiowaniu Doliny Krzemowej albo Shenzhen. Leży w połączeniu AI z istniejącą tkanką przemysłową i instytucjonalną. Jeśli AI stanie się narzędziem wzmacniającym przemysł, energetykę, zdrowie i administrację, Europa może zbudować przewagę tam, gdzie inni skupiają się głównie na platformach konsumenckich i generatywnych fajerwerkach. To szansa również dla Polski.
Trzecia część wywiadu w kolejnym tygodniu.
Michał "OverJK" Owerczuk – reżyser, twórca AI i producent kreatywny. Założyciel m.in. Enthropy RCE Berlin, iPro.One oraz CIN Labs, partner kreatywny i udziałowiec Popcorn.co, pierwszej na świecie platformy kreatywnej AI. Ambasador i partner technologiczny m.in. Vidu AI, GMI Cloud, Higgsfield czy Topaz Labs. Pomysłodawca i współzałożyciel WARSAW GLITCH International Film & AI Festival oraz polskiej społeczności twórców kreatywnych AI. Jako pierwszy Polak został członkiem Machine Cinema, największej społeczności twórców AI na świecie, a także trzykrotnie zwyciężył GenJam 4h Hackathon – Hilversum Holland, ALL USA Online oraz International Super Bowl Gen Jam.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Do Rzeczy.
Regulamin i warunki licencjonowania materiałów prasowych.